Les drones semi-autonomes se sont fait une place au cœur des stratégies militaires dans la guerre en Ukraine, avec les munitions « rôdeuses » en quête d'un objectif à détruire, ou les drones « kamikazes » utilisés par les Ukrainiens pour frapper des bases militaires ou des infrastructures russes jusqu'en Sibérie. À Gaza, des systèmes de ciblage basés sur l'intelligence artificielle (IA) sont utilisés par Israël. Dans les conflits actuels, la robotisation et l'IA ont déjà transformé les champs de bataille.
« Aujourd'hui, on est proche d'un déploiement des armes autonomes », s'inquiète Anne-Sophie Simpere, coordinatrice pour la campagne française de Stop killer robots. La coalition, qui regroupe plus de 250 ONG à travers 70 pays, vise à établir une législation internationale pour encadrer l'utilisation des « robots tueurs », appelés en France « systèmes d'armes létales autonomes » (Sala). Une fois activées, ces armes peuvent sélectionner une cible puis engager la force, le tout sans intervention humaine.
Dans l'immense majorité des utilisations actuelles, un humain reste dans la boucle, généralement pour décider ou non d'ouvrir le feu sur une cible préalablement sélectionnée par le système. Mais le développement rapide de l'IA a de quoi inquiéter les opposant·es aux systèmes d'armes autonomes. « Ces armes se développent depuis les années 1990-2000, mais il y a maintenant un vrai mouvement d'accélération, explique Thibault Fouillet, directeur scientifique de l'Institut d'études de stratégie et de défense, basé à Lyon. Ce n'est plus vraiment une problématique technique, mais plutôt éthique d'organisation. » Car si l'autonomie prend de plus en plus de place dans les armées, il n'existe aujourd'hui aucun cadre juridique pour la réglementer.
La responsabilité des armes
« Une machine ne peut pas distinguer un civil et un militaire, ni respecter le principe de proportionnalité d'une attaque », pointe Anne-Sophie Simpere. L'experte a conscience qu'un humain peut également commettre des erreurs, des fautes ou des crimes, « mais dans ce cas, il peut être jugé, alors qu'avec les armes autonomes, la question de la responsabilité se pose ». Elle évoque également une « déshumanisation de la guerre » : les personnes sont associées à des données et gérées par des algorithmes.
La coordinatrice de Stop Killer Robots s'inquiète enfin d'un éventuel détournement de ces armes, qui pourraient être utilisées dans des opérations de maintien de l'ordre ou de contrôle aux frontières. Sans compter que les armes peuvent tomber entre les mains de groupes non étatiques qui pourraient s'en servir pour commettre des crimes.
Les partisans de ce type de systèmes mettent de leur côté en avant des avantages stratégiques, la réduction du nombre de victimes et une potentielle réduction des coûts financiers. « Une machine peut nécessiter des réparations, mais elle est davantage disponible qu'un humain, n'a pas besoin de congés, ni de repos, ni de manger », note Thibault Fouillet. Pour Anne-Sophie Simpère, l'argument du nombre moindre de victimes n'est pas valable : « Les principales victimes de la guerre contemporaine sont les civils, et on a bien vu que l'utilisation de logiciel de ciblage par intelligence artificielle à Gaza n'a fait qu'augmenter le nombre de cibles. Le monde n'a pas besoin d'armes pour tuer encore plus rapidement », insiste-t-elle.
Des avancées timides vers un traité
L'Assemblée générale de l'ONU des 12 et 13 mai 2025 a abouti sur une petite victoire pour la coalition Stop Killer Robots. Pour la première fois, des représentant·es de 96 États et des membres de la société civile se sont rassemblés à New York pour discuter de la mise en place d'un éventuel traité encadrant les systèmes d'armes autonomes.
Depuis 2013, les débats sur cette question se déroulent habituellement dans le cadre de la convention de l'ONU « sur certaines armes classiques ». « On y parle surtout des enjeux militaires, mais ce n'est pas la bonne manière de voir le problème, estime Cyril Magnon-Pujo, chercheur en sciences politiques ayant assisté à ces réunions. L'Assemblée générale de l'ONU permet de parler des droits humains. »
Si la convention sur certaines armes classiques n'a jusque-là permis que peu d'avancées concrètes, c'est notamment parce que les décisions y ont besoin d'être adoptées à l'unanimité. « Les puissances militaires utilisaient cet outil pour bloquer les propositions de négociations sur un traité », explique Cyril Magnon-Pujo. En 2017, un groupe d'expert·es a été créé sur le sujet des systèmes d'armes autonomes. Et en 2019, onze principes directeurs non contraignants ont été adoptés. Ils rappellent par exemple que le droit humanitaire s'applique aux systèmes d'armes létales autonomes, ou encore que les États doivent garantir que ces armes ne soient pas utilisées « de manière à causer des souffrances superflues ». Mais cela ne va pas assez vite. Ni pour les ONG ni pour le secrétaire général des Nations unies António Guterres, qui réclame un traité interdisant les armes autonomes, « politiquement inacceptable et moralement répugnantes », dès 2026.
Quelques puissances face au reste du monde
129 pays se sont exprimés en faveur d'un instrument juridiquement contraignant contre les robots tueurs. 54 ne se prononcent pas, et douze sont contre la mise en place d'un traité. Il s'agit de puissances militaires, dont certaines mènent des guerres contre leurs voisins, comme la Russie, les États-Unis, l'Inde, Israël, mais aussi les deux Corées, le Royaume-Uni, l'Australie, le Bélarus, l'Estonie, la Pologne et le Japon.
La France, de son côté, ne s'est pas prononcée. En 2013 pourtant, c'est elle qui a porté le sujet aux réunions de la convention sur les armes. « La France a une position intermédiaire, une approche à deux niveaux », explique Cyril Magnon-Pujo. Cela signifie qu'elle est pour une interdiction totale des systèmes d'armes létales autonomes ; mais se montre plus flexible en ce qui concerne les systèmes d'armes létaux intégrant de l'autonomie (Salia), c'est-à-dire les systèmes partiellement autonomes, avec « un humain dans la boucle ».
D'autres États, mais aussi l'Union européenne, dont la position est similaire, évoluent sur le sujet. « Ils sont rattrapés par le fait que ces armes deviennent un enjeu militaire, expose Cyril Magnon-Pujo. Les refuser, c'est se mettre, peut-être, à la traîne dans la course aux armements. »
« Il faut maintenant un leadership politique, c'est urgent », estime Anne-Sophie Simpere. Pour elle, même si la mise en place d'un traité risque d'être longue et qu'il sera très certainement boudé par les puissances militaires, il aura clairement un impact : « Il posera un stigmate sur les armes, les rendra inacceptables, ce qui envoie un message fort aux financeurs et aux constructeurs ».
En comparaison, le traité d'Oslo sur les armes à sous-munitions, adopté en 2008, n'a pas été signé par la Russie ni l'Ukraine. Même si l'utilisation de ces armes n'a pas pu être interdite dans ce conflit, elle a au moins suscité des inquiétudes et des critiques. En revanche, face à la menace russe, la Lituanie s'est retirée de la convention d'Oslo en mars. Une décision qualifiée par Handicap International de « recul historique pour la protection des civils ».
Boîte noire
Anne-Sophie Simpère, interviewée pour cet article en tant que coordinatrice de la coalition Stop Killer Robots, est également journaliste, et travaille entre autres pour l' Observatoire des multinationales, partenaire de Basta!.